1,020 research outputs found

    Experiments on the Application of IOHMMs to Model Financial Returns Series

    Get PDF
    Input/Output Hidden Markov Models (IOHMMs) are conditional hidden Markov models in which the emission (and possibly the transition) probabilities can be conditioned on an input sequence. For example, these conditional distributions can be linear, logistic, or non-linear (using for example multi-layer neural networks). We compare the generalization performance of several models which are special cases of Input/Output Hidden Markov Models on financial time-series prediction tasks: an unconditional Gaussian, a conditional linear Gaussian, a mixture of Gaussians, a mixture of conditional linear Gaussians, a hidden Markov model, and various IOHMMs. The experiments compare these models on predicting the conditional density of returns of market and sector indices. Note that the unconditional Gaussian estimates the first moment with the historical average. The results show that, although for the first moment the historical average gives the best results, for the higher moments, the IOHMMs yielded significantly better performance, as estimated by the out-of-sample likelihood. "Input/Output Hidden Markov Models" (IOHMMs) sont des modèles de Markov cachés pour lesquels les probabilités d'émission (et possiblement de transition) peuvent dépendre d'une séquence d'entrée. Par exemple, ces distributions conditionnelles peuvent être linéaires, logistique, ou non-linéaire (utilisant, par exemple, une réseau de neurones multi-couches). Nous comparons les performances de généralisation de plusieurs modèles qui sont des cas particuliers de IOHMMs pour des problèmes de prédictions de séries financières : une gaussienne inconditionnelle, une gaussienne linéaire conditionnelle, une mixture de gaussienne, une mixture de gaussiennes linéaires conditionnelles, un modèle de Markov caché, et divers IOHMMs. Les expériences comparent ces modèles sur leur prédictions de la densité conditionnelle des rendements des indices sectoriels et du marché. Notons qu'une gaussienne inconditionnelle estime le premier moment avec une moyenne historique. Les résultats montrent que, même si la moyenne historique donne les meilleurs résultats pour le premier moment, pour les moments d'ordres supérieurs les IOHMMs performent significativement mieux, comme estimé par la vraisemblance hors-échantillon.Input/Output Hidden Markov Model (IOHMM), financial series, volatility, Modèles de Markov cachés, IOHMM, séries financières, volatilité

    Quantification de l'incertitude sur la structure latente dans des modèles de Markov cachés

    Get PDF
    National audienceNous introduisons les modèles de Markov cachés graphiques, qui généralisent les chaînes et arbres de Markov cachés (CMCs et AMCs). Nous montrons comment l'incertitude globale sur le processus d'état caché peut être décomposée en une somme d'entropies conditionnelles, qui s'interprètent comme une contribution locale à l'incertitude globale. Nous donnons un algorithme efficace de calcul de ces entropies pour les CMCs et AMCs et montrons leur apport, en complément d'autres algorithmes de restauration des états, au diagnostic et à l'interprétation des états cachés. Nous montrons également que les profils classiques de probabilités lissées (loi marginale de l'état caché à chaque instant, sachant l'ensemble des observations), ne permet pas de conclure sur la contribution locale à l'incertitude globale

    Modèles de Markov cachés

    Get PDF
    Les modèles de Markov cachés (MMC) connaissent aujourd'hui un grand succès dans divers domaines d'application. Ils ont été initialement introduits dans la reconnaissance vocale par Baker (1975) et Rabiner (1989), et plus tard dans des domaines tels que l'analyse de séquences biologiques par R. Durbin et Mitchison (1998), l'ingénierie financière par Weigend et Shi (1997) et bien d'autres. Ils sont utilisés pour modéliser des séquences d'observations qualitatives ou quantitatives. La plupart des méthodes d'utilisation et de développement des MMC ont été développées dans le cadre de la reconnaissance vocale. Par la suite ces mêmes techniques ont été appliquées et adaptées à d'autres domaines. Notre objectif dans ce mémoire est de présenter une vue d'ensemble de la théorie des MMC à temps discret. Nous exposons les trois problèmes classiques et développons différents algorithmes susceptibles de les résoudre en effectuant de l'inférence sur les états du processus. Les différents algorithmes dont nous traitons sont : l'algorithme Forward-Backward développé par Rabiner et Juang (1986) pour le problème d'évaluation de l'état le plus probable de générer une observation particulière, ou "symbole", à un certain instant défini (évaluation), l'algorithme de Viterbi (1967) pour le problème de calcul de la trajectoire d'états la plus probable de générer une séquence d'observations (décodage) et finalement l'algorithme de Baum-Welch traité par Baum et Eagon (1967) pour la construction d'un modèle adapté aux séquences d'états ou d'observations à modéliser (apprentissage). Nous illustrons ensuite ces algorithmes en les appliquants à des exemples plus démonstratifs.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : États, séquences, symboles observables, processus de Markov à temps discret, MMC, algorithme Forward-Backward, algorithme de Viterbi, algorithme de Baulm-Welch, inférence

    Inference in Mixed Hidden Markov Models and Applications to Medical Studies

    Get PDF
    International audienceThe aim of the present paper is to document the need for adapting the definition of hidden Markov models (HMM) to population studies, as well as for corresponding learning methodologies. In this article, mixed hidden Markov models (MHMM) are introduced through a brief state of the art on hidden Markov models and related applications, especially focusing on disease related problems. Making the main assumption that a given pathology can be considered at different stages, hidden Markov models have for example already been used to study epileptic activity or migraine. Mixed-effects hidden Markov models have been newly introduced in the statistical literature. The notion of mixed hidden Markov models is particularly relevant for modeling medical symptoms, but the data complexity generally requires specific care and the available methodology for MHMM is relatively poor. Our new approach can be briefly described as follows. First, we suggest to estimate the population parameters with the SAEM (Stochastic Approximation EM) algorithm, which has the property to converge quickly. The well-known forward recursions developed for HMM allow to compute easily the complete likelihood at each step of the MCMC procedure used within SAEM. Then, for dealing with the individuals, we suggest to estimate each set of individual parameters with the MAP (Maximum A Posteriori) of the parameter distributions. Finally, the hidden state sequences are decoded using the Viterbi algorithm. Some Monte-Carlo experiments are presented to illustrate the accuracy of our algorithms.Cet article veut montrer la nécessité d’étendre la définition des modèles de Markov cachés (HMM), ainsi que leurs méthodes d’estimation au cadre des études de population. Nous motivons alors les intérêts des modèles de Markov cachés à effets mixtes (MHMM) au travers d’un état de l’art succinct sur les modèles de Markov cachés et leurs nombreuses applications. Nous nous limiterons à des problématiques médicales. Dans ce cadre, les modèles de Markov cachés supposent que l’évolution des maladies peut s’interpréter à travers différents états. En effet, la distinction de divers stades évolutifs dans la maladie justifie l’application de modèles de Markov cachés à certaines pathologies, comme cela a déjà été le cas pour la migraine, ou encore l’épilepsie. La définition des modèles de Markov cachés à effets mixtes est très récente. Ces nouveaux modèles sont des candidats intéressants pour la modélisation de symptômes. Les données utilisées sont complexes par leur structure et nécessitent toutefois une démarche d’analyse particulière. En outre, les méthodes d’apprentissage pour les MHMM restent peu nombreuses. Notre démarche est la suivante. Pour commencer, nous proposons d’estimer les paramètres de population au moyen de l’algorithme SAEM (Stochastic Approximation EM), dont la convergence est rapide. La procédure forward développée pour les HMM permet ici un calcul simple de la vraisemblance complète à chaque étape de la procédure MCMC de l’algorithme. Ensuite, les paramètres individuels sont obtenus par maximisation a posteriori de leur distribution. Enfin, les séquences d’états les plus probables pour chaque individu sont estimées par l’algorithme de Viterbi. Une étude par simulations Monte-Carlo illustre les propriétés de nos algorithmes

    Adaptation de modèles de Markov cachés - Application à la reconnaissance de caractères imprimés

    Get PDF
    International audienceWe present in this paper a new algorithm for the adaptation of hidden Markov models (HMM models). The principle of our iterative adaptive algorithm is to alternate an HMM structure adaptation stage with an HMM Gaussian MAP adaptation stage. This algorithm is applied to the recognition of printed characters to adapt the models learned by a polyfont character recognition engine to new forms of characters. Comparing the results with those of MAP and MLLR classic adaptations shows a slight increase in the performance of the recognition system

    Modèles de Markov cachés à haute précision dynamique

    Get PDF
    La reconnaissance vocale est une technologie sujette à amélioration. Malgré 40 ans de travaux, de nombreuses applications restent néanmoins hors de portée en raison d'une trop faible efficacité. De façon à pallier à ce problème, l'auteur propose une amélioration au cadre conceptuel classique. Plus précisément, une nouvelle méthode d'entraînement des modèles markoviens cachés est exposée de manière à augmenter la précision dynamique des classificateurs. Le présent document décrit en détail le résultat de trois ans de recherche et les contributions scientifiques qui en sont le produit. L'aboutissement final de cet effort est la production d'un article de journal proposant une nouvelle tentative d'approche à la communauté scientifique internationale. Dans cet article, les auteurs proposent que des topologies finement adaptées de modèles markoviens cachés (HMMs) soient essentielles à une modélisation temporelle de haute précision. Un cadre conceptuel pour l'apprentissage efficace de topologies par élagage de modèles génériques complexes est donc soumis. Des modèles HMM à topologie gauche-à-droite sont d'abord entraînés de façon classique. Des modèles complexes à topologie générique sont ensuite obtenus par écrasement des modèles gauche-à-droite. Finalement, un enchaînement successif d'élagages et d'entraînements Baum-Welch est fait de manière à augmenter la précision temporelle des modèles

    Découverte supervisée de Modèles de processus intentionnels basée sur les Modèles de Markov Cachés

    No full text
    National audienceCela fait plusieurs décennies que la communauté des Systèmes d'Information (SI) s'intéresse à la découverte 'automatisée' des modèles de processus. Certaines approches se basent sur les activités séquentielles (traces) effectuées par les acteurs du SI pour identifier les modèles de processus. Cependant, ces approches ne portent que sur les activités et les modèles identifiés sont donc orientés-activités. Les modèles de processus intentionnels se concentrent sur les intentions qui ont entraîné les activités plutôt que sur les activités elles-mêmes. Malheureusement, les approches de fouille de processus existantes ne tiennent pas compte de l'aspect caché des intentions derrière les activités. Nous pensons pouvoir découvrir les modèles de processus intentionnels à l'aide de techniques de fouille d'intention. Le but de cet article est de proposer l'utilisation de modèles probabilistes - les Modèles de Markov Cachés (MMC) - pour évaluer les intentions les plus probables à partir des traces. Cet article se concentre sur une approche supervisée pour découvrir les intentions sous-jacentes aux traces d'activités des utilisateurs et de les comparer au modèle de processus intentionnel initial

    Génération d'indicateurs de maintenance par une approche semi-paramétrique et par une approche markovienne

    Get PDF
    National audienceLes stratégies de maintenance et leurs évaluations demeurent une préoccupation particulièrement forte au sein des entreprises aujourd'hui. Les enjeux socio-économiques dépendant de la compétitivité de chacune d'entre elles sont de plus en plus étroitement liés à l'activité et à la qualité des interventions de maintenance. Une suite d'évènements particuliers peut, éventuellement, informer l'expert d'une panne prochaine. Notre étude tente d'appréhender "cette signature" à l'aide d'un modèle de Markov caché. Nous proposons à l'expert deux stratégies sur l'estimation du niveau de dégradation du système maintenu. La première stratégie consiste à utiliser des lois de dégradation non paramétriques. La deuxième stratégie consiste à utiliser une approche markovienne
    corecore